home *** CD-ROM | disk | FTP | other *** search
/ Power Tools 1993 November - Disc 2 / Power Tools Plus (Disc 2 of 2)(November 1993)(HP).iso / hotlines / swthl / uxrxwh / rxuxwhit.txt < prev    next >
Text File  |  1993-04-13  |  42KB  |  815 lines

  1.       Metrics discussion:  Providing a robust set of performance metrics
  2.  
  3.  
  4. The first challenge faced was providing a robust set of fully validated
  5. performance metrics which would serve as a base for tool development.
  6. Realizing that current kernel instrumentation (/dev/kmem) was both
  7. insufficient and in several areas incorrect, we decided to undertake a
  8. major effort to develop a new mechanism for kernel instrumentation.  The
  9. result of our efforts is the Measurement Interface (MI).  The MI is a joint
  10. development effort between the Performance Technology Center, Workstation
  11. Systems Group, and the HP-UX kernel labs for both the Series 300 and Series
  12. 800 platforms.  The MI offers the following benefits:
  13.  
  14. - a robust set of validated kernel counters and event traces;
  15. - a low overhead interface to kernel instrumentation; and
  16. - a uniform user level interface to kernel instrumentation which is
  17.   independent of specific HP-UX release or other kernel specific
  18.   features.
  19.  
  20. The MI is internally supported in HP-UX release 7.0 and later.  Figure 1
  21. shows how the HP-UX Measurement Interface is implemented.
  22.  
  23. <Figure 1>
  24.  
  25. Sources of performance data
  26.  
  27. The MI is based on three sources of data which provide a robust set of
  28. validated performance counters and event traces.
  29.  
  30. - Kernel Instrumentation:
  31.  
  32. The Kernel Instrumentation (KI) package supplies system activity
  33. metrics in the form of event driven trace buffers.  Within the HP-UX
  34. kernel, stub routines have been inserted in specific kernel functions
  35. to capture process and kernel event transitions.  Each transition
  36. generates a corresponding trace record which serves to track key data
  37. related to the event.  The individual trace records are stored in one
  38. of four 8 kbyte trace buffers within kernel memory.  It is important
  39. to note that the KI is currently evolving, and its implementation is
  40. subject to change.
  41.  
  42. Whenever a kernel trace buffer becomes full, a user daemon (midaemon)
  43. process wakes up and reads the data from the KI produced trace buffer,
  44. converts the trace records into meaningful counters, and stores that
  45. data into shared memory.  The midaemon is used to process kernel trace
  46. buffers into shared memory for the following reasons:
  47.  
  48.      1) kernel memory is a scarce resource and it is not feasible
  49.      to maintain numerous trace buffers within this area.  The
  50.      midaemon program has been tuned to ensure trace buffers are
  51.      processed from kernel memory into shared memory in a timely
  52.      fashion such that trace data is not lost;
  53.  
  54.      2) the kernel trace buffers must be converted into
  55.      meaningful counters representing time and frequency
  56.      information about the occurrence of events.  This conversion
  57.      of trace buffer data into counter data significantly reduces
  58.      the volume of performance data maintained within shared
  59.      memory; and
  60.  
  61.      3) shared memory can be utilized as a fast interprocess
  62.      communication area, allowing performance tool collection
  63.      routines the ability to sample and log the performance
  64.      counter information easily and efficiently.
  65.  
  66. Under the current implementation, the midaemon process converts and
  67. groups trace records into six counter classes.  The class definitions
  68. are as follows:
  69.  
  70.      Configuration       NFS
  71.      Global              Cluster
  72.      IO                  Process
  73.  
  74.  
  75. Each counter class is further subdivided into subclasses which serve
  76. to track specific event activity related to the class.  For example,
  77. the Global class is divided into subclasses for global disk activity
  78. counters, global response time counters, global memory counters, etc..
  79. Approximately 90% of the performance counter information provided by
  80. the measurement interface is sourced from the KI interface package.
  81.  
  82. -  Validated kernel counters:
  83. The second source of data is groups of in-line kernel counters which
  84. have been validated and are accessible via a KI implemented KMEM
  85. (/dev/kmem) extract call.  For example, Global class memory counters
  86. are obtained directly from the vmmeter structure via the KMEM call.
  87.  
  88. -  Direct hardware calls:
  89. In addition to the performance metrics provided via the measurement
  90. interface, several IO related performance metrics are captured
  91. directly from device interface cards.  The 'ioctl' system call is
  92. utilized to read performance information directly from the device
  93. interface card.  For example, this technique is used to capture LAN
  94. related metrics (packet rates, errors, and collisions).
  95.  
  96.  
  97. Overhead
  98.  
  99. An overriding design goal of the measurement interface was to minimize
  100. its memory and CPU overhead on the system.  After all, it is not
  101. appropriate for the tool and underlying instrumentation being utilized
  102. to measure your systems performance to itself have a negative
  103. performance impact.  The measurement interface utilizes between 0.5% -
  104. 3% CPU on average and requires 300K of shared memory on an average
  105. system.  To support the data collection methodologies required by
  106. differing performance needs, an MI interface library was implemented
  107. to provide a uniform user level interface to counter information
  108. maintained in shared memory by the midaemon.  This approach also
  109. provided an interface which is independent of a specific HP-UX release
  110. or other kernel specific features.  Currently, the library calls are
  111. undocumented and not available for distribution from Hewlett Packard.
  112.  
  113.  
  114.  
  115.  
  116.        Collection discussion:  Providing a continuous, low overhead data
  117.                                collection mechanism
  118.  
  119.  
  120. Supplementing the measurement interface is a specialized data collection
  121. program, scopeux.  Performance tool collection routines are required for
  122. two reasons:  (1) the midaemon program does not have the bandwidth to log
  123. performance counter information to disk without the potential of losing
  124. valuable trace buffer data, and (2) the midaemon program offloads the
  125. overhead associated with processing KI traces from individual performance
  126. tools.
  127.  
  128.  
  129. Overview
  130.  
  131. For a given performance need, the appropriate data collection mechanism can
  132. vary greatly.  For example, a real-time diagnostic tool may require
  133. performance data about individual processes every few seconds; a capacity
  134. planning tool may require data collection specific to programs running on
  135. the system over periods of several months.  HP LaserRX/UX is built to serve
  136. the needs of the system manager in terms of the ability to diagnose system
  137. problems, tune a system for optimal performance, balance system workloads,
  138. manage user service levels, and plan for future resource needs.  In an
  139. ideal world, the goal of a system manager is to have the ability to solve
  140. system performance issues in a proactive manner such that they never
  141. surface as user problems.  In the real world, most system managers are so
  142. busy reacting to user problems that they never have a chance to solve
  143. performance issues in a proactive manner.  HP LaserRX/UX was designed to
  144. provide the reactive system manager with a tool he can use to solve today's
  145. performance issues as well as gain some insight into what issues may
  146. surface next week, next month, or even next year.
  147.  
  148. Scopeux was designed with the following goals in mind:
  149.  
  150. -  continuous, long-term data collection mechanism to support the
  151.    resolution of current and future system management issues;
  152.  
  153. -  configurable collection environment controlled by the system manager.
  154.  
  155. -  tiered collection scheme to facilitate a structured approach to system
  156.    performance analysis.; and
  157.  
  158. -  low CPU and disk overhead requirements.
  159.  
  160. Figure 2 shows how the Scopeux data collection environment is
  161. implemented.
  162.  
  163. <Figure 2>
  164.  
  165. The scopeux data collection program is officially supported on HP 9000
  166. Series 800/300 system running HP-UX 7.0 and later.  Scopeux is designed to
  167. continually run on your HP 9000 system, collecting performance data
  168. supplied from the measurement interface and IO devices, sampling and
  169. summarizing the data, and logging it to disk.  Performance data is
  170. collected and logged at three levels; Global, Application (user-defined
  171. collection of related processes), and Process.
  172.  
  173.  
  174. Continuous Collection
  175.  
  176. Continuous data collection provides the system manager with the ability to
  177. view and analyze system performance over time, allowing the system manager
  178. to proactively monitor and manage computing resources. Viewing system
  179. performance data over time becomes especially valuable after you have
  180. collected several months worth of performance data and have the ability to
  181. visualize trends which may exist on your HP 9000 system.  Continuous data
  182. collection also provides the system manager with the ability to react to
  183. the day to day performance issues in a more efficient manner.  Since a
  184. historical log of system activity exists, most user problems can be
  185. validated and fixed without the difficult and time consuming task of having
  186. to duplicate the problem.
  187.  
  188. To achieve the design goal of continuous data collection, several decisions
  189. had to be made with respect to the amount and resolution of the performance
  190. data being collected.  The following guidelines were determined:
  191.  
  192. -  only key performance indicators would be collected and logged to disk,
  193.    and
  194. -  on a system with average activity, no more than 1 Mbyte of data should
  195.    be collected per day, and CPU overhead of the collection process
  196.    should average less than 5%.
  197.  
  198. Data Resolution
  199.  
  200. Performance data is averaged over the time interval.  For global and
  201. application data, five one-minute samples are used to determine the five-
  202. minute average.  For process data, one sample is used.  For process data,
  203. it is important to note that data is not lost for processes that begin and
  204. terminate within the sampling interval.  By default process data is
  205. collected whenever a process is created or terminated.
  206.  
  207. Experimentation helped set the resolution of the data collection at five
  208. minutes for global and application data, and every one minute for process
  209. data.  The scopeux collection program is responsible for summarizing
  210. collected data on the five minute interval for global and application data
  211. and on the one minute interval for process data.
  212.  
  213. Where necessary, low level performance metrics were combined into more
  214. generalized key performance indicators.  For example, the measurement interface
  215. provides more than twenty process stop reasons; scopeux combines these metrics
  216. into ten meaningful stop reason indicators.
  217.  
  218. Parameter file
  219.  
  220. To provide the system manager with the flexibility to customize the data
  221. collection environment, the scopeux collection program reads a parameter
  222. file (PARM) each time it is started.  The PARM file contains information
  223. which instructs the scopeux program about its collection environment.  For
  224. example, the system manager may specify PARM file options which control the
  225. type of data which gets collected and logged, the size of disk logfiles,
  226. thresholds for data collection, user-defined application definitions, etc..
  227. If a PARM file does not exist the scopeux collection program uses pre-
  228. defined defaults.
  229.  
  230. Data hierarchy
  231.  
  232. As mentioned above, performance data is collected using a tiered scheme
  233. which permits an hierarchical approach to performance analysis.  Data is
  234. collected on three levels; High-Level Global data, Medium-Level Application
  235. data, and Low-Level Process data.
  236.  
  237. -  Global:
  238. System wide performance information.  These metrics show overall
  239. system resource utilization and/or information.  For example, the
  240. overall CPU utilization metric represents CPU resource consumption on
  241. behalf of all processes running on the system.
  242.  
  243.  
  244. -  Application:
  245. Process-level performance information grouped by HP LaserRX/UX user-
  246. defined applications (classes).  The system manager has the ability to
  247. group individual processes which run on your system into user-defined
  248. applications.  Processes not grouped into a user-defined application
  249. are automatically grouped into an application called 'OTHER'.  This
  250. ensures that all processes which run on the system are bucketed into
  251. an application.  These metrics show overall system utilization /
  252. information on behalf of a single application.  For example, if you
  253. wanted to define an application that measured the collective impact of
  254. the `Month End Accounting' environment on your system you would do the
  255. following:
  256.  
  257. Define an application called 'Accounting' (PARM file).
  258.  
  259.      application = Accounting
  260.  
  261. Specify which processes running on your system should be grouped
  262. into this application (PARM file).
  263.  
  264.      file = acct*, stock, finance, payroll, report, print
  265.  
  266. Whenever one of the programs listed in the file parameter is run on
  267. your system , its resource consumption will be attributed to the
  268. application `Accounting'.  Note that wildcard characters can be used
  269. to simplify process identification.  Processes are bucketed into
  270. applications based on name, not path.  Therefore, two processes with
  271. the same name, but different paths will be bucketed as the same
  272. process within an application.  Other techniques for applications are
  273. provided as well (e.g. USER LOGON.)
  274.  
  275. -  Process:
  276. Process level performance information.  These metrics show resource
  277. utilization / information on behalf of a single process.  Since
  278. process level data is the most frequent type of data encountered, HP
  279. LaserRX/UX provides the system manager with the ability to set user-
  280. defined thresholds (CPU consumption, disk IOs, transaction rates,
  281. etc.) that a process must exceed before it is considered interesting.
  282. This serves two purposes; limits the amount of non-interesting data
  283. that might otherwise be collected, and allows the system manager to
  284. focus in on processes that are consuming significant system resources.
  285. For example, if the CPU threshold was set to 10 ( in the PARM file), a
  286. process would have to consume at least 10% of the CPU resource during
  287. a 1 minute interval before it was considered interesting and
  288. performance data was collected on its behalf.  If a process does not
  289. exceed one of the user-defined thresholds it is considered non-
  290. interesting and no performance data is collected for that process for
  291. that time interval.  By default, all processes are considered
  292. interesting when they are first created (new) and when they terminate
  293. (killed).
  294.  
  295. The tiered approach to data collection is key to the usability of the HP
  296. LaserRX/UX product as an efficient problem solving tool.  Because the data
  297. is organized using this tiered approach (Global - Application - Process),
  298. the system manager is able to use a top-down or hierarchical approach to
  299. problem analysis.  The system manager determines the time domain of concern
  300. by viewing Global data, focuses in on which Application during the time
  301. domain is the potential cause of the problem, and then isolates the
  302. Process(es) within the application which is causing the problem.
  303.  
  304. Data Management
  305.  
  306. Data is logged to disk using an approach which corresponds to the tiered
  307. data collection scheme.  Performance data is logged to three separate disk
  308. logfiles; logglob, logappl, and logproc.  These three logfiles are known as
  309. `RAW' logfiles, and correspond to the levels of performance data collected
  310. on your computer system; global, application, and process.  Raw logfiles
  311. are updated on a continuous basis.  They contain a log of system activity
  312. since the scopeux collector was first started, including the most recent
  313. five minute data sample for global and application data, and the most
  314. recent one minute data sample for process data.  Management of the
  315. performance data you have collected is a key component of the HP LaserRX/UX
  316. product.  There are two main areas of concern with respect to data
  317. management:
  318.  
  319. -  Disc Space Requirements
  320. You have total control over the amount of disk space consumed by the
  321. HP LaserRX/UX raw logfiles (logglob, logappl, and logproc).  When you
  322. start up the scopeux collection process, the following defaults are
  323. used to determine how much disk space each logfile will be allowed to
  324. consume:
  325.  
  326.      Global       = 10 Megabytes
  327.      Application  = 10 Megabytes
  328.      Process      = 20 Megabytes
  329.  
  330. Once a given logfile has reached its bound, the oldest 25% of the data
  331. will be automatically rolled out so that new data can be logged.  This
  332. circular logfile design ensures that you will not lose any current
  333. performance data.
  334.  
  335. The system manager can alter the default logfiles sizes with the
  336. `size' parameter in the PARM file.  Because each HP 9000 system will
  337. log a different amount of data based on scopeux collector
  338. configuration (PARM file setting) and system activity levels, we
  339. recommend optimizing the size of each of your logfiles based on
  340. personal experience.  On average, global data will account for 15% of
  341. raw logfile disk space requirements, application data will account for
  342. 25%, and process data will account for 60% of raw logfile disk space.
  343.  
  344. -  Data Management Programs
  345. Two data management programs are shipped with the HP LaserRX/UX
  346. software: extract and utility.  Lets look at the data management
  347. features of each program.
  348.  
  349.  
  350.      Extract:  The extract program is used to create a single
  351.      logfile containing data from all of or a combination of raw
  352.      logfiles.  The output file generated from the extract
  353.      program is known as an `EXTRACTED' logfile.  The key benefit
  354.      of an extracted logfile is that it can contain specific
  355.      ranges of dates and times of raw logfile data.  Data can be
  356.      extracted using native 5 minute collection intervals, one
  357.      hour summary intervals, or both.  For example, if you have
  358.      been collecting data for six months, your raw logfiles
  359.      contain all the data collected over that time period
  360.      (assuming they were large enough).  By running the extract
  361.      program against the raw logfiles, you can create an
  362.      extracted logfile that contains a specific
  363.      month/week/day/hour(s) worth of data with only one hour
  364.      summaries.
  365.  
  366.      The extract program can be very useful to set up an archive
  367.      scheme for your HP LaserRX/UX performance data.  For
  368.      example, you may only have enough disk space to collect a
  369.      months worth of data in your raw logfiles before they reach
  370.      their disk space size limit and roll out the oldest 25% of
  371.      the data.  You can use the extract program to create a
  372.      monthly extracted file just before you know your raw .PA
  373.      logfiles are going to roll.  This extracted file can then be
  374.      archived during your system backup procedure.  The extract
  375.      program can also be used to append raw or extracted data to
  376.      an existing extracted logfile.  Using the extract program in
  377.      this fashion will ensure you have an ongoing log of your
  378.      systems performance.
  379.  
  380.      Extracted files can also be downloaded to your PC for local
  381.      analysis.  You can use extract to subset raw performance
  382.      data into logfiles that are reasonable in size for
  383.      downloading to your PC hard disc.
  384.  
  385.      Utility:  You can use the utility program to find out
  386.      specific information regarding the data you have collected.
  387.      For example, utility reports on data collection parameters,
  388.      disk space requirements, periods when data collection has
  389.      been turned off, etc.  Utility can also be used to resize
  390.      your raw logfiles to avoid a log file roll.
  391.  
  392.      As a general rule of thumb, on a system with average
  393.      activity levels, overhead goals have been achieved for both
  394.      CPU and disk space requirements.  On average, less than 1
  395.      megabyte of performance data is collected per day and CPU
  396.      overhead for the collection environment (measurement
  397.      interface and scopeux) is less than five percent.
  398.  
  399.  
  400.  
  401.   Analysis strategy: Providing a centralized top-down approach to Performance
  402.                      Management
  403.  
  404.  
  405. The final challenge of developing any performance tool is inevitability
  406. tied to the presentation of data.  The user interface strategy for HP
  407. LaserRX/UX is based on the following realizations:
  408.  
  409. -  the tiered approach to data collection is fundamental for effective
  410. data analysis and must be mirrored within the user interface;
  411.  
  412. -  to interactively view/analyze performance data over time, the user
  413. interface must provide graphical representation of the data;
  414.  
  415. -  graphical work requires significant CPU resources; therefore, the user
  416. interface should not be located on the host machine;
  417.  
  418. -  it is typical for a single system manager to have responsibilities for
  419. systems in a large geographic area; therefore, the user interface
  420. should provide centralized analysis capabilities.
  421.  
  422.  
  423. Figure 3 depicts the user interface design for the HP LaserRX/UX product.
  424.  
  425. <Figure 3>
  426.  
  427. Overview
  428.  
  429. The performance workstation serves as a centralized viewing/analysis
  430. station with the ability to access performance data remotely and locally
  431. from the host collection machine(s).  This meets two of our stated
  432. purposes:  it relieves the host collection machine of the overhead
  433. associated with interactive graphical representation of the performance
  434. data, and provides the system manager with the ability to manage multiple
  435. systems from a central location.
  436.  
  437. The performance workstation platform is an HP Vectra / IBM AT personal
  438. computer running Microsoft Windows.  This performance workstation platform,
  439. running the Performance Analysis Program for HP-UX Systems (laserrx) serves
  440. as the window into the performance data that scopeux has collected on the
  441. HP 9000 Series 300 or Series 800 host computer system.  The methodology for
  442. viewing/analyzing data using the laserrx analysis program stems from the
  443. design of the scopeux collection program.  Through the power and
  444. functionality of Microsoft windows, Global, Application, and Process data
  445. can be viewed and analyzed interactively in graphical and/or tabular
  446. formats with great ease.
  447.  
  448. The goal of this hierarchical approach to data analysis is to minimize the
  449. amount of performance data needed to analyze to determine the 'state of
  450. health' of a system.  We recommend a top-down methodology to data analysis.
  451. Start by viewing high-level Global data (graphical format), isolating
  452. areas/times of concern.  Proceed to medium-level Application data
  453. (graphical format), isolating areas/times of concern for specific
  454. applications.  Proceed to low-level Application or Process data (tabular
  455. format) to isolate cause of concern.  This approach to data analysis will
  456. save you time by allowing you to quickly pinpoint processes which may be
  457. causing performance bottlenecks on your computer system.
  458.  
  459.  
  460. User Interface Highlights:
  461.  
  462. Window dialog boxes for global and application graphs which allow you to
  463. select the following:
  464.  
  465.      - Graph(s) to display
  466.      - Shift (00:00 - 24:00)
  467.      - X-Axis Time Domain (Day,Week,Month,Year)
  468.      - Ingnore Weekends Flag
  469.      - Points Every (5 Minute, Hour, Day)
  470.      - Starting Day
  471.  
  472. Zoom Time and Detail Features:
  473. Once the graph(s) for the given time domain you have selected are
  474. drawn, you can zoom on any time period within the graph based on Time
  475. or Detail. A Time zoom will create a new window that shows a new graph
  476. for the zoomed time period.  A detail zoom will create a new window
  477. that shows tabular data for the zoomed period.  A zoom detail on a
  478. global graph shows application tabular data and a zoom detail on an
  479. application graph shows process tabular data.
  480.  
  481. Print and Export Features:
  482. You can print or export any graph or tabular data window.  Data can be
  483. exported to an ASCII (.dat) or spreadsheet (.wks) file for
  484. manipulation outside of the HP LaserRX/UX product.  This feature is
  485. extremely useful for generating customized reports, etc.
  486.  
  487. Cut and Paste Feature:
  488. You can copy and undo any graph or tabular data window to the
  489. MicroSoft Windows clipboard.  Other applications capable of reading
  490. the MicroSoft Windows clipboard can then import the HP LaserRX/UX
  491. window data.
  492.  
  493. Configuration Dialog Boxes
  494. Provides a mechanism to save configuration options information (graph
  495. options, serial and LAN connection/disconnection information, etc.) in
  496. permanent storage.
  497.  
  498. Native Language Support
  499. Provides a mechanism to change date, time, number, and currency
  500. formats to conform to the standards of different countries.
  501.  
  502. Context Sensitive Help Subsystem
  503. A complete contest sensitive help subsystem provides on-line
  504. documentation about product functionality, graph and tabular metrics.
  505.  
  506.  
  507.  
  508. Metrics Available
  509.  
  510. Table 1 provides a summary of the performance metrics available for HP
  511. LaserRX/UX at the Global Graph, Application Graph/Tabular, and Process
  512. Tabular levels.
  513.  
  514.  
  515.  
  516. TABLE  1
  517. -------------------------------------------------------------------------
  518. |                            GLOBAL  LEVEL                              |
  519. -------------------------------------------------------------------------
  520. |      Graph       |                     Description                    |
  521. -------------------------------------------------------------------------
  522. |   Bottlenecks    |   Percent of CPU utilized, Peak Disk Utilization,  |
  523. |                  |   and Memory Management overhead.                  |
  524. -------------------------------------------------------------------------
  525. |   Queue Depth    |  Number of processes queued on CPU, Memory, and    |
  526. |                  |  Disk resources.                                   |
  527. -------------------------------------------------------------------------
  528. |   Transaction    |  For a given time interval, number of terminal     |
  529. |   Response       |  Transactions logged, average user Think time,     |
  530. |                  |  time to First Response, and time to Prompt.       |
  531. -------------------------------------------------------------------------
  532. |   User CPU       |  Percent of CPU by: user processes running at      |
  533. |                  |    Normal, Nice, and Real-time priorities.         |
  534. |                  |  Percent of CPU by process running in kernel mode. |
  535. -------------------------------------------------------------------------
  536. |   System CPU     |  Percent of CPU by: System processes, Context      |
  537. |                  |    Switching and Interrupt Processing.             |
  538. |                  |  Percent of CPU by processes running in user mode. |
  539. -------------------------------------------------------------------------
  540. |   Disk Summary   |  Read/Write rates (per second) for all disk IO     |
  541. |                  |  activity, including total Logical IOs, total      |
  542. |                  |  Physical IOs, total Memory Manager IOs.  Peak     |
  543. |                  |  Disk Utilization.                                 |
  544. -------------------------------------------------------------------------
  545. |   Disk Detail    |  Percent utilization for the five busiest disks    |
  546. |                  |  (up to 32 individual disk may be shown).          |
  547. |                  |  Read/Write rates (per second) for each individual |
  548. |                  |  disk, including total Logical IOs, total          |
  549. |                  |  Physical IOs, total System IOs, total Memory      |
  550. |                  |  Management IOs.  Disk Utilization.                |
  551. -------------------------------------------------------------------------
  552. |   LAN Detail     |  Number of internet packets sent and received,     |
  553. |                  |  collisions, and errors for up to 4 individual     |
  554. |                  |  LAN cards.                                        |
  555. -------------------------------------------------------------------------
  556.  
  557.  
  558.  
  559. -------------------------------------------------------------------------
  560. |                       APPLICATION  LEVEL                              |
  561. -------------------------------------------------------------------------
  562. |      Graph       |                   Description                      |
  563. -------------------------------------------------------------------------
  564. |   Bottlenecks    |  Five busiest applications in terms of CPU         |
  565. |                  |  Utilization.  For up to 15 user-defined           |
  566. |                  |  applications: CPU Utilization, Physical Disk      |
  567. |                  |  IO Rate, and Memory Utilization.                  |
  568. |                  |  * One pre-defined application called `OTHER'.     |
  569. -------------------------------------------------------------------------
  570. |   Transaction    |  Five busiest applications in terms of Transaction |
  571. |   Response       |  Rate.  For up to 15 user-defined applications:    |
  572. |                  |  terminal Transactions logged, average user Think  |
  573. |                  |  time, time to First Response, and time to Prompt. |
  574. |                  |  * One pre-defined application called `OTHER'.     |
  575. -------------------------------------------------------------------------
  576. |   User           |  Five busiest applications in terms of user-       |
  577. |   Transaction    |  defined Transaction Rate.  For up to 15           |
  578. |   Response       |  user-defined applications: number of user-defined |
  579. |                  |  Transactions logged, average user-defined Think   |
  580. |                  |  time, and user-defined time to Prompt.            |
  581. |                  |  * One pre-defined application called `OTHER'.     |
  582. |                  |  User-defined transaction represent a key          |
  583. |                  |  contribution of the HP LaserRX/UX product.        |
  584. |                  |  The user can instrument his programs with         |
  585. |                  |  'start_tran' and 'end_tran' calls to define       |
  586. |                  |  how a transaction is defined in his terms.        |
  587. -------------------------------------------------------------------------
  588. |   CPU            |  Five busiest applications in terms of CPU         |
  589. |   Utilization    |  Utilization.  For up to 15 user-defined           |
  590. |                  |  applications: CPU Utilization, Percent of CPU     |
  591. |                  |  by processes running on behalf of application in  |
  592. |                  |  user mode at Normal, Nice, and Real-time          |
  593. |                  |  priorities,  Percent of CPU by processes running  |
  594. |                  |  on behalf of application in kernel mode.          |
  595. |                  |  * One pre-defined application called `OTHER'.     |
  596. -------------------------------------------------------------------------
  597.  
  598. -------------------------------------------------------------------------
  599. |                       APPLICATION  LEVEL                              |
  600. -------------------------------------------------------------------------
  601. |     Tabular      |                   Description                      |
  602. -------------------------------------------------------------------------
  603. |  Application     |  Application name, date, and time.                 |
  604. |  Identification  |  Average number of application that were defined,  |
  605. |                  |  active, or terminated during the time interval.   |
  606. |                  |                                                    |
  607. |  CPU             |  Percent of CPU utilized by the application.       |
  608. |  Information     |  Percent of time an application process spent      |
  609. |                  |  executing in kernel mode or user mode (at         |
  610. |                  |  normal, nice, and real-time priorities).          |
  611. |                  |                                                    |
  612. |  Disk IO         |  Average number of physical and logical disk IOs   |
  613. |  Information     |  per second for the application.                   |
  614. |                  |                                                    |
  615. |  Memory          |  Percent of memory utilized by the application.    |
  616. |  Information     |  Sum of virtual data, text, and stack spaces for   |
  617. |                  |  all processes active for the application.         |
  618. |                  |                                                    |
  619. |  Transaction     |  Number of terminal transactions logged during the |
  620. |  Information     |  time interval.  Average think time, time to first |
  621. |                  |  response, and time to prompt for transactions.    |
  622. |                  |  Number of user-defined transactions logged        |
  623. |                  |  during the time interval.  Average think time     |
  624. |                  |  and time to prompt for user-defined transactions. |
  625. -------------------------------------------------------------------------
  626.  
  627.  
  628.  
  629. -------------------------------------------------------------------------
  630. |                          PROCESS  LEVEL                               |
  631. -------------------------------------------------------------------------
  632. |     Tabular      |                   Description                      |
  633. -------------------------------------------------------------------------
  634. |  Process         |  Process name, date, and time.                     |
  635. |  Identification  |  Process identification number (pid), parent       |
  636. |                  |  process identification number (ppid), and process |
  637. |                  |  group leader identification number (pgid).        |
  638. |                  |  Process priority and run time.                    |
  639. |                  |  Reason the process was logged.                    |
  640. |                  |  User logon name and logon tty (terminal device).  |
  641. |                  |                                                    |
  642. |  CPU             |  Percent of CPU utilized over the time interval    |
  643. |  Information     |  and over the life of the process.                 |
  644. |                  |  Percent of time the process spent executing in    |
  645. |                  |  kernel mode (system activity, context switching,  |
  646. |                  |  and interrupt processing).                        |
  647. |                  |  Percent of time the process spent executing in    |
  648. |                  |  user mode (at normal, nice, and real-time         |
  649. |                  |  dispatch priorities).                             |
  650. -------------------------------------------------------------------------
  651. |  Disk IO         |  Overall disk IO rate during the life of the       |
  652. |  Information     |  process.                                          |
  653. |                  |  Average number of logical, physical, system, and  |
  654. |                  |  memory management disk IOs per second for the     |
  655. |                  |  process during the time interval.                 |
  656. |                  |  Logical, physical (system and raw IO) read/write  |
  657. |                  |  rates for the process during the time interval.   |
  658. |                  |                                                    |
  659. |  Memory          |  Resident set size for the process.                |
  660. |  Information     |  Sum of virtual text, data, and stack spaces for   |
  661. |                  |  the process.                                      |
  662. |                  |  Memory and Disk page fault rate for the process   |
  663. |                  |  during the time interval.                         |
  664. |                  |                                                    |
  665. |  Transaction     |  Number of terminal transactions logged during     |
  666. |  Information     |  the time interval and over the life of the        |
  667. |                  |  process.  Average think time, time to first       |
  668. |                  |  response, and time to prompt for transactions     |
  669. |                  |  during the time interval and over the life of     |
  670. |                  |  process.                                          |
  671. |                  |  Number of user-defined transactions logged during |
  672. |                  |  the time interval and over the life of the        |
  673. |                  |  process.  Average think time and time to prompt   |
  674. |                  |  for user-defined transactions during the time     |
  675. |                  |  interval and over the life of process.            |
  676. |                  |                                                    |
  677. |  Process State   |  Current state and stop reason for the process     |
  678. |  Information     |  (stop reasons include:  program, memory, disk,    |
  679. |                  |  terminal, other IO, system, diskless (DUX),       |
  680. |                  |  network file system (NFS), and interprocess       |
  681. |                  |  communication (IPC).                              |
  682. -------------------------------------------------------------------------
  683. Data Communication
  684.  
  685. Flexible data communication software is an integral component of the
  686. HP LaserRX/UX product.  Both the host collection software and
  687. performance analysis software have bundled data communication services
  688. that provide point to point connection and remote data access between
  689. the performance workstation and HP 9000 host.
  690.  
  691. The data communications components of HP LaserRX/UX are depicted in
  692. Figure 4.
  693.  
  694. <Figure 4>
  695.  
  696. As shown in figure 4, the system manager has two methods for accessing
  697. scopeux performance data via the performance workstation.
  698.  
  699. Remote File Access:
  700.  
  701. Remote File Access implies the following:  the system manager has made
  702. a remote Serial or LAN connection via the HP LaserRX/UX data
  703. communications software (bundled as part of the HP LaserRX/UX
  704. product).  The system manager has remotely opened the logglob `RAW'
  705. logfile or an `EXTRACTED' logfile for analysis.
  706.  
  707.  
  708. Once the logfile is opened, viewing and analyzing the performance data
  709. using local verses remote file access is totally transparent.  When
  710. possible, we recommend remote file access over a LAN connection as the
  711. method of choice for the following reasons:
  712.  
  713. Speed:
  714. When a remote data request is made, only the data required to satisfy
  715. the request is returned from the host to the performance workstation.
  716. Since a Series 800/300 CPU is being used to satisfy the data request
  717. and data transfer over the LAN is relatively fast, the graph/tabular
  718. object is typically processed faster than it would be on the
  719. performance workstation CPU.
  720.  
  721. Access to Current Data:
  722. Remote file access enables the system manager to view/analyze `RAW'
  723. logfile data.  Global and Application data can be viewed to the last
  724. five minute sample logged, and Process data can be viewed to the last
  725. one minute sample logged.
  726.  
  727. Disc Space Requirements:
  728. Remote file access does not required any additional disk space on the
  729. performance workstation.  Local file access requires that an
  730. `EXTRACTED' logfile is downloaded to the hard disk of the performance
  731. workstation (unless a Lan Manager shared directory is available on the
  732. host HP9000).
  733.  
  734. Local File Access:
  735.  
  736. Local File Access implies the following:  the system manager has run
  737. the extract program on the HP 9000 host and generated an `EXTRACTED'
  738. logfile.  Using a binary transfer program of the system managers
  739. choice (not supplied with HP LaserRX/UX) the extracted logfile has
  740. been downloaded to the local disc on the performance workstation for
  741. analysis.  Lan Manager shared directories are also supported for local
  742. file access.  Note that only `EXTRACTED' logfiles can be analyzed
  743. locally.  Finally the system manager has locally opened the downloaded
  744. `EXTRACTED' logfile for analysis.
  745.  
  746.  
  747. Methods of Connection
  748.  
  749. The remote data communications solution provided with HP LaserRX/UX is
  750. based on a propietary remote procedure call (RPC) functionality.  Via the
  751. performance workstation, the user establishes a remote connection with the
  752. HP 9000 host machine where the performance data is being collected.
  753. Transparent to the tool user, these RPC routines are initiated from the
  754. performance workstation, executed on the HP 9000 host, and the resultant
  755. data transferred back to the performance workstation.  There are two modes
  756. of data communication  available:
  757.  
  758.  
  759. - Local Area Network
  760.  
  761. The LAN solution is based on HP's NETIPC and requires two additional
  762. software components outside of what is provided with HP LaserRX/UX. To
  763. support LAN connections, the HP 9000 host machine must have the
  764. LAN/9000 Series 300/800 Link software.  On both the Series 300 and
  765. Series 800 platforms the LAN/9000 Link software provides NETIPC as
  766. well as the inetd daemon.  The PC must have either Officeshare or
  767. Network Services to use the remote LAN functionality.
  768.  
  769. This mode of connection between the performance workstation and HP
  770. 9000 host offers the following benefits:
  771. -  Speed (data transfer rate)
  772. -  Ease of connection to any one machine in the network.
  773.  
  774.  
  775. - Serial
  776.  
  777. The serial solution is based on HP's EDCL protocol and requires no
  778. additional software outside of what is provided with HP LaserRX/UX.
  779. Remote SERIAL connections and data access is accomplished in the
  780. following steps:
  781.  
  782. 1) The performance workstation initiates a connection by specifying
  783. a Basic Connection Command File which contains; login, password,
  784. baud rate, parity, etc..
  785.  
  786. 2) The Serial server (pcserver) on the HP 9000 host services the
  787. connection request and establishes a remote logon.
  788.  
  789. 3) From this point, the Serial server accepts RPC requests and sends
  790. them to the LAN server (hcserver) for processing.   Pcserver and
  791. hcserver communicate directly via pipes (No LAN card/services are
  792. required).
  793.  
  794. This mode of connection between the performance workstation and HP
  795. 9000 host offers the ability to connect over a wide ranges of
  796. topologies utilizing Basic Serial Connection Files.  You have the
  797. flexibility to establish a connection and remotely access performance
  798. data over the following supported configurations:
  799.  
  800.      * Direct point-to-point connections
  801.      * Modem connections
  802.      * HP-certifies multiplexers
  803.      * HP-certified X.25 PADs
  804.  
  805. You can also establish connections and remotely access performance
  806. data over the following unsupported configurations, but you are
  807. responsible for providing technical support:
  808.  
  809.      * Security mechanisms (dial-back units)
  810.      * Other multiplexers and data switches
  811.      * Other network topologies
  812.  
  813.  
  814. 
  815.